#OpenAI API
AI軍備競賽的真相:1.4兆砸下去,才發現瓶頸不是晶片!
當今科技界最有權勢的兩個人——OpenAI 的 CEO 山姆·奧特曼(Sam Altman)和微軟的 CEO 薩提亞·納德拉(Satya Nadella)——最近坐到了一起。在播客《All things AI》上,他們的一場對話,不小心洩露了 AI 革命背後一個驚人又好笑的秘密。大家都以為 AI 競賽的關鍵是演算法、是資料、是更牛的晶片。但納德拉親口承認,今天限制他們狂飆的最大瓶頸,甚至不是缺輝達的 GPU,而是缺能把這些晶片插進去的“暖房”(warm shells)。你沒聽錯,就是物理世界的資料中心、配套的電力、乃至於施工隊的進度,成了數字世界狂奔的最大“絆腳石”。1.4兆的豪賭:唯一的風險是“彈藥不夠”對話中最尖銳的問題,莫過於主持人拋出的那個天文數字:OpenAI 承諾在未來幾年投入高達 1.4 兆美元去搞算力基礎設施建設。 而 OpenAI 今年的營收,據報導“也就”130億美金。這聽起來簡直是“蛇吞象”,錢從那來?奧特曼的回答相當霸氣,他先是糾正:“我們的收入比你報的多得多。” 接著半開玩笑地說:“你要是擔心,想賣手裡的 OpenAI 股票,我立馬就能給你找到買家。”潛台詞很明顯:我們不愁錢,更不愁沒人信。奧特曼承認這是一場豪賭,賭的就是 AI 的能力和收入會繼續“陡峭地增長”。在他看來,那 1.4 兆不是負債,而是實現下一個目標的“彈藥”。他們真正恐懼的,不是錢花多了,而是“彈藥不夠”。沒有足夠的算力,就做不出更強的模型,也就無法產生更多收入。而作為最大的“彈藥供應商”,納德拉也力挺奧特曼,他說 OpenAI 交給微軟的每一版商業計畫,“每一次都超額完成了”。拆解新協議:微軟血賺,OpenAI 也沒虧這場對話的另一個核心,是雙方剛敲定的新合作協議。外界一直好奇,在這場聯姻中,到底誰佔了便宜?答案是:微軟拿到了“裡子”,OpenAI 獲得了自由。根據新的協議,微軟拿到的最大王牌,不是那 27% 的股權(估值約1350億美元),而是一項長達七年的“免版稅使用權”(Royalty-free access),可以盡情使用 OpenAI 的模型和 IP。 納德拉自己都興奮地表示,這相當於“免費獲得了一個前沿模型”(a frontier model for free)。這意味著,微軟可以把這個星球上最強的 AI 大腦,幾乎“零成本”地塞進它所有的核心產品裡——Office、Windows、GitHub、Bing……這筆買賣,堪稱科技史上最划算的投資之一。那麼 OpenAI 得到了什麼?答案是“有控制的自由”。新協議規定,OpenAI 的核心模型 API(你可以理解為 GPT-4o 或未來的 GPT-5)在 2030 年之前,將繼續在微軟的 Azure 雲上向大企業客戶“獨家”提供。 但是,其他所有產品——包括萬眾矚目的視訊模型 Sora、AI 智能體(Agents)、開源模型,以及未來可能推出的可穿戴裝置等——都不再受此限制。 OpenAI 可以自由地在亞馬遜的 AWS 或Google的雲平台上分發這些產品。這是一個精妙的平衡,微軟鎖定了雲服務的核心競爭力,而 OpenAI 則獲得了探索更多商業模式的廣闊空間。AI 的終極目標:科學發現與宏觀委託花了這麼多錢,繫結得如此之深,他們到底想去向何方?奧特曼給出了一個充滿理想主義色彩的答案:“AI 用於科學”(AI for Science)。他最期待的,是 AI 能夠做出那怕微小但卻是“全新的科學發現”的那一刻。 在他看來,當 AI 開始擴展人類知識的總和時,那就是超級智能的某種體現。納德拉則更為務實,他聚焦於人機互動的下一次革命。他將其定義為“宏觀委託,微觀調校”(Macro delegation and micro steering)。這是什麼意思?想像一下,你不再是對著搜尋框或聊天框小心翼翼地提問,而是直接給 AI 下達一個大任務,比如“幫我策劃並預訂下周去日本的全家旅行”。AI 會自己去搞定一切,只在關鍵節點回來問你:“酒店 A 和 B,你選那個?”這背後,是 AI 從一個“工具”到一個“管家”或“代理人”的轉變。我們每個人的未來:一個人頂一個團隊聊到最後,話題不可避免地觸及了 AI 對普通人工作的影響。納德拉提出了一個詞:“利潤率擴張的黃金時代”(golden age of margin expansion)。他預測,未來的公司,營收可能會翻倍,但員工數可能只會增加一點點。因為 AI 將每個員工的“槓桿率”極大地放大了。他舉了一個微軟內部的例子:一個負責網路營運的女主管,需要和全球 400 家光纖營運商打交道,工作極其繁瑣。她向上級抱怨,就算批准預算,也招不到足夠的人來幹這活。於是,她自己動手,用 AI 做了許多智能體,把整個維運流程給自動化了。這就是未來——“AI 讓你一個人幹一個團隊的活”。這不是一個關於大規模失業的恐怖故事,而是一個關於“重新學習如何工作”的提醒。在 AI 的加持下,一個團隊能完成過去十倍的工作量。未來,公司的“人頭數”增長將遠遠慢於“營收”的增長。這場對話揭示了一個清晰的現實:AI 競賽已經從程式碼和演算法的“數字戰”,正式進入了拼資料中心、拼能源的“物理戰”。而微軟和 OpenAI 這對已經深度捆綁的盟友,正試圖用天量的資本和一份精妙的協議,聯手定義下一個計算時代,以及我們每個人的工作方式。 (AI進擊之旅)
中國國內首次!8.9毫秒推理速度破紀錄,1元打穿百萬token
【新智元導讀】當所有人還在為參數內卷時,智能體真正的決勝點已經轉向了速度與成本。浪潮資訊用兩款AI伺服器直接給出了答案:一個將token生成速度幹到10毫秒以內,一個把每百萬token成本打到1元時代。Agentic AI時代,已經到來!輝達GTC大會上,老黃公開表示,當AI具備了感知和推理能力時,智能體AI就誕生了。「它如同數字世界的「機器人」,本質是理解-思考-行動」。當前,AI智能體革命已至臨界點。國內外科技巨頭紛紛加速佈局,全力爭奪這一賽道主導權。據Gartner預測,到2028年,AI智能體將參與人類約15%的日常工作決策。Georgian報告也顯示,如今,91%的企業研究主管正計畫在內部鋪開Agentic AI的落地應用。然而大規模部署之前,「互動速度」與「成本控制」仍是橫亙在許多企業面前的兩大關鍵挑戰。這裡有簡單的一個案例,就足以說明一些問題。國外一支開發團隊基於Azure的OpenAI服務,建構了一個智能體。然而,隨著時間的推移,響應變得越來越慢,一次簡單查詢耗費10秒以上。當他們用OpenAI API測試完全相同的提示詞後發現:OpenAI響應時間為1-2秒,Azure則需要5-10秒。同一款模型,同一個提示詞,卻有五倍差異。要知道,智能體的互動速度,直接決定了使用者體驗的質量。如今,人們對AI響應速度的期待,已從「秒級」進化到「毫秒級」。不僅如此,成本又直接決定了智能體產業化的可行性。多智能體的協作,對低延遲和token消耗又提出了更高的要求。分毫必爭的響應速度,決定了人們是否願意買單;而真金白銀的投入,則決定了企業能否持續推動AI智能體落地。那麼,如何才能既要又要呢?在2025人工智慧計算大會上,浪潮資訊重磅發佈了兩大破局創新系統:元腦SD200超節點AI伺服器,以及元腦HC1000超擴展AI伺服器。在元腦SD200上,DeepSeek R1大模型的Token生成速度飆升至8.9毫秒,創下國內LLM推理的最快紀錄,首次將智能體即時互動帶入「10毫秒」時代。在元腦HC1000上,LLM的推理成本被前所未有地壓縮至「1元/百萬Token」,徹底擊穿規模化部署的成本天花板。Scaling Law下一站:AI智能體爆發2025年,大模型的Scaling並未放緩,而是進入了一個全新的階段。Scaling Law的焦點,早已從「預訓練」轉向了「推理」。從o3、Gemini 2.5,到Grok 4、GPT-5,全球頂尖AI不斷迭代,每一次發佈都刷新了以往SOTA。這一演進的節奏仍在加速。爆料稱,GoogleGemini 3.0、OpenAI Sora 2都將於十月初面世。反觀國內,DeepSeek R1/V3.1-Terminus、Qwen家族等開源模型,月更、周更已成為常態。在能力邊界上,LLM正從純文字,走向了融合視覺、聽覺的多模態模型,並逐步演變為一個底層「作業系統」。可以預見,AI能力將依舊會指數級增長——LLM性能越來越強,所處理的任務長度和複雜度,也在不斷提升。我們看到,Scaling Law推動的模型參數量,從百億千億向兆、甚至百兆邁進。與此同時,在後訓練階段增加算力投入,可顯著提升LLM推理能力。為何這一轉變如此重要?因為「推理」是建構Agentic AI的基礎。眾所周知,2025年,是「智能體元年」。作為LLM的核心應用形態,智能體落地進入了爆發期。在這一賽道上,Google、OpenAI、Anthropic等巨頭競相佈局。比如,OpenAI的「編碼智能體」GPT-5-Codex深受開發者歡迎;另外,還有正在內測的「GPT-Alpha」,具備高級推理、全模態,可以呼叫工具。然而,AI智能體的產業化落地並非易事。能力、速度和成本,成為了當前AI智能體產業化決勝的「鐵三角」。AI不再侷限於技術演示、實驗,而要深入場景,成為創造可衡量價值的核心生產力。這意味著,商業成功的核心已從單純追求模型能力,轉向對能力、速度、成本三者的綜合平衡。互動速度:決定智能體的商業價值在智能體時代,速度不再是錦上添花,而是生存底線。token的吞吐速度,已成為AI應用建構的「隱形計時器」。在人機互動時代,我們對AI延遲感知不強,只要響應速度跟上人類閱讀思維即可。一般來說,只要滿足20 token/s輸出速率,就能實現流暢的閱讀體驗。而現在,AI的遊戲規則徹底改變。互動主體不再是「人-機」對話,而是「智能體-智能體」的高頻博弈。延遲那怕是幾毫秒,也可能導致決策失效。而且,在規模化商業部署中,這種差異會被無限放大,形成「以快殺慢」的絕對碾壓。智能體間互動,多為「小封包」高頻通訊。這好比修了16條車道高速公路,AI只跑兩公里,巨大的頻寬對於小包傳輸如同虛設。而傳統通訊協議「上下高速」的過程,反而成了主要耗時。延遲是會層層累加的。當前智能體僅是初露鋒芒,未來網際網路將由它們主導協作。每一個互動環節的微小延遲,都會在複雜的協同網路中呈指數級放大,最終導致整個應用響應慢到無法接受。如果延遲無法降低,那就失去了商業化的可能性。舉個栗子,在欺詐防控場景中,對智能體響應速率提出了極限要求——約10毫秒。當前,DeepSeek響應速度基本在10-20毫秒左右,其他的普遍高於30毫秒。這遠不足以支援AI的高頻互動。token成本:規模化的生死線此外,token成本,是智能體能否實現規模化擴張,並且盈利的關鍵。即便模型能力卓越,若token成本無法控制在合理範圍內,高頻、並行的實際應用,將難以持續。一方面,LLM存在著「token膨脹」效應:推理前思考過程已產生上千萬token。一個複雜任務,直接讓token成本指數級暴漲。那麼,是什麼原因導致token思考數暴增?首先必須承認的是,模型本身演算法能力差異是影響因素之一。不同LLM在設計和訓練過程中,演算法架構和最佳化策略各有優劣,而最佳化程度更高的LLM可通過更高效推理路徑,在較少token消耗下完成相同的任務。其次,底層計算架構選擇路徑等,也會進而影響token成本。因為LLM運行有依賴於底層的計算架構,包括硬體加速器、分散式運算框架等等。若是計算架構無法高效支撐LLM推理需求,比如在分佈式系統中存在通訊瓶頸或計算資源分配不均,LLM可能需要生成更多token「繞路」完成任務。當前,在做AI Coding的程式設計師,每月消耗token數比一年前平均增長約50倍,達到1000萬-5億token。企業每部署一個智能體,平均token成本大概1000-5000美元。未來五年,token消耗預計增長100萬倍。可見,不論是速度,還是成本,都成為AI智能體商業化落地的最大挑戰。面對這個難題,我們該如何解?兩大核心方案,拿下速度成本難題浪潮資訊,同一時間給出了兩大解決方案——元腦SD200超節點AI伺服器元腦HC1000超擴展AI伺服器元腦SD200若要實現更低延遲token生成能力,就需要在底層基礎設施,比如架構、互聯協議、軟體框架等關鍵點上,實現協同創新。浪潮資訊新的突破,在於元腦SD200超節點AI伺服器。如前所述,DeepSeek R1在元腦SD200上token生成速度實現了8.9毫秒。目前,最接近的競爭對手,最好的資料是15毫秒。這是國內首次將智能體即時互動,帶入到10毫秒時代。為何元腦SD200能夠取得如此大的速度突破?這背後離不開團隊,融合了智能體應用和超節點開發的技術成果。 首創多主機3D Mesh系統架構它可以實現單機64路本土AI晶片縱向擴展(Scale Up),提供4TB視訊記憶體和6TB記憶體,建構超大KV Cache分級儲存空間。而且,單節點即可跑4兆參數LLM,或同時部署多個協作的智能體。此外,在硬體設計上還支援了「開放加速模組」(OAM),相容多款本土AI晶片。 跨主機域全域統一實體位址空間團隊還通過遠端GPU虛擬對應技術,突破了跨主機域統一編址的難題,讓視訊記憶體統一地址空間擴展8倍。它還支援拓撲動態伸縮,可按需擴展128、256、512、1024卡的規模。通過Smart Fabric Manager,元腦SD200實現了單節點64卡全域最優路由,保障了晶片間通訊路徑最短,進一步縮短了通訊延遲。最重要的是,互連協議的設計,是元腦SD200實現極低延遲的關鍵。首先,團隊採用了基建的協議棧,只有物理層、資料鏈路層、事務層三層協議,原生支援Load/Store等「記憶體語義」,GPU可直接訪問遠端節點的視訊記憶體或主存。並且,基礎通訊延遲達到了「百納秒級」。其次,浪潮資訊Open Fabric原生支援由硬體邏輯實現的鏈路層重傳,延遲低至微秒級。不依賴OS、軟體棧,它就能匹配更低延遲、更高吞吐的AI推理場景。元腦SD200還採用了,分佈式、預防式流控機制,無需丟包或ECN來感知擁塞。得益於以上高效、可靠的協議設計,元腦SD200實現了業界最低0.69微秒通訊延遲。當然了,超節點的大規模商業化應用,還必須依靠整機的高可靠的設計。為此,浪潮資訊從系統硬體層、基礎軟體層、業務軟體層,建構了多層次、可靠的保障機制。系統硬體層:全銅纜電互連,短距離緊耦合傳輸,每十億小時故障率低於「光模組互聯」方案100倍基礎軟體層:創新GPU故障資訊轉儲、跨域故障關聯定位等技術,實現全方位可觀測、全端維運自動化業務軟體層:基於Profiling性能資料啟動故障預隔離和任務自動遷移,保證業務故障預測與自癒,實現推理響應不中斷在元腦SD200上,團隊還非常強悍地實現了推理性能超線性擴展。這意味著,性能的提升幅度超過了資源投入的增加幅度。以DeepSeek R1-671B為例,從16卡擴展到64卡,實現了16.3倍超線性的擴展率!具體來看,元腦SD200將這件事做到了極致的完美:通過PD分離策略、動態負載平衡等技術,充分發揮出了超節點的架構優勢,讓系統內部的處理流程變得極其高效,資源競爭和擁堵被降到最低。最終,將通訊耗時控制在了10%以內。可以設想,在實際高並行場景下,當請求量急劇攀升時,系統能夠高效地將負載均勻分佈至各個計算單元,避免了個別節點的「擁堵」拖累整個系統的響應時間。這意味著,無論是第1個請求,還是第100萬個請求,都能獲得同樣穩定且低水平的延遲。既能「跑得快」又能「跑得多」,保證絕對極致的低時延,這就是實現規模化的生命線!基於軟體生態FlagOS,元腦SD200還能繼續相容更大的生態,主流程式碼即可直接編譯運行。當前,元腦SD200已實現對Pytorch算子的全覆蓋,AI4S的典型應用可以一鍵遷移。如下所示,64個AlphaFold 3蛋白質結構預測,即可在一台元腦SD200超節點AI伺服器同時運行。速度挑戰解決之後,token成本又該怎麼打下來?元腦HC1000為此,浪潮資訊給出的答案是——元腦HC1000超擴展AI伺服器。它基於全對稱DirectCom極速架構打造,能夠聚合海量的本土AI晶片,支援極大的推理吞吐。對於一個企業來說,在起步探索、POC階段,平台通用性更加重要,可以快速驗證想法,搶佔市場先機。這對其創新、迭代的速度,至關重要。但當它進入大規模部署階段,即應用被市場驗證,token呼叫數呈指數級增長是時,核心目標又轉變為——高效、低成本營運。而元腦HC1000,就能把推理成本打到最低1元/百萬token。 全對稱DirectCom極速架構DirectCom極速架構,每計算模組配置16顆AIPU,採用了直達通訊的設計,解決了傳統的伺服器架構下,協議轉換和頻寬增強問題,實現了超低延遲。計算通訊1:1均衡配比,實現了全域的無阻塞的通訊。傳統意義上,計算與通訊是互斥關係,計算時不會傳輸,計算完成後再傳。當前,有很多將計算和通訊結合的策略,主要是把原來在傳過程,針對GPU等待時間做最佳化。除此之外,還包含了許多細粒度的任務,比如不同模型架構,不同並行情況,通訊資料區塊大小和通訊策略都要最佳化,才能提升效率。HC1000還採用全對稱的系統拓撲設計,可支援靈活PD分離、AF分離,按需配置算力,最大化資源利用率。它還支援多元算力,讓不同的晶片協同工作。 超大規模無損擴展同時,HC1000支援超大規模無損擴展,實現從1024卡到52萬卡不同規模的系統建構。計算側支援DirectCom和智能保序機制,網路側支援包噴灑動態路由,實現了深度算網協同,相較傳統RoCE方法提升1.75倍。它還支援自適應路由和智能擁塞控制演算法,將KV Cache傳輸對Prefill、Decode計算實例影響降低5-10倍。總結來看,元腦HC1000是通過「全面最佳化降本」和「軟硬協同增效」,實現了高效token生產力。它不僅創新了16卡計算模組,單卡成本暴降60%+,每卡分攤系統均攤成本降低50%。而且,它採用了大規模工業標準設計,降低了系統複雜度的同時,還提高了系統可靠性,無故障執行階段間大幅延長。系統採用的DirectCom架構保障了計算和通訊的均衡,讓算網協同、全域無損技術,實現了推理性能1.75倍飆升。通過對LLM的計算流程的細分和模型結構的解耦,實現了計算負載的靈活的按需配比。單卡MFU計算效率,最高可以提升5.7倍。元腦SD200+元腦HC1000,成為浪潮資訊兩大「殺手鐧」,分別攻克了AI智能體應用速度和成本難題。那麼,下一步又該走向何方?「專用計算架構」是未來近期,OpenAI在算力佈局上,動作頻頻:先是和甲骨文簽下3000億美元大單,隨後又獲得輝達100億美元的投資。緊接著,他們又官宣了「星際之門」五大超算全新選址計畫。這一系列舉措,無不指向一個核心事實——對於LLM訓練和部署而言,算力需求始終是一個「無底洞」。當前,AI算力的可持續發展正面臨三大關鍵挑戰:工程極限:系統規模的擴展已逼近工程能力的上限。能源壓力:算力的大幅增長給電力基礎設施帶來了巨大負擔。效能失衡:算力投入和產出失衡,商業兌現處理程序緩慢。目前,市面上的「AI晶片」仍以通用晶片為主。GPU,是增加了CUDA核心和矩陣運算Tensor核心的傳統圖形計算晶片;ASIC,則是最佳化了矩陣計算和張量處理的通用矩陣計算晶片。但正如前文所述,這些基於通用計算架構的方案,正逐漸在能效比和成本效益上觸及瓶頸。僅是單純依靠堆疊更多計算單元,或是提升製程工藝的傳統路徑,難以沿著scaling Law在算力規模、能耗、成本之間取得平衡。其原因在於,通用架構雖然適用性強、易於產業化推廣,但效率低下。相比而言,應用面較窄的專用架構,則有著更高的效率。對此,浪潮資訊AI首席戰略官劉軍認為,未來的關鍵便是在於「發展AI專用計算架構」:我們必須推動發展路徑的轉變,要從一味地追求規模擴展,轉向注重提升計算效率。並以此為基礎,重新構思和設計AI計算系統,大力發展真正面向AI應用的「專用計算架構」。具體而言,就是從硬體層面來最佳化算子與演算法,定製出大模型專用晶片,進而實現軟硬體層面的深度協同最佳化,即「演算法硬體化」。只有這樣才能讓性能的Scaling,追上token的高速增長。這不僅是突破算力瓶頸的必經之路,更是推動AI產業邁向下一階段的基石。面對大模型時代,浪潮資訊的前瞻性思考為業界指明了一條方向:通過創新計算架構,讓AI更好地走向落地。 (新智元)
AI圈API大戰半年報:GoogleGemini獨霸半壁江山,DeepSeek悶聲發大財,OpenAI竟然沒進前三?
哈嘍哇,各位老鐵!AI尼歐哥我又雙叒叕來跟大家嘮嗑了!2025年這都過去一半了,AI圈的API大戰那是打得一個熱火朝天,風起雲湧。誰是真霸主?誰在裸泳?誰又在悶聲發大財?最近,推特上有位叫「karminski-牙醫」的大神,基於OpenRouter的資料,給我們扒了扒上半年大模型API市場的底褲。這不看不知道,一看嚇一跳!今天AI尼歐哥就帶大家好好盤一盤這份戰報,這瓜保熟,不好吃你來找我!/ 01 / 市場份額大洗牌:Google亂殺,DeepSeek瘋跑,OpenAI你人呢?先上乾貨,看看現在的API江湖座次表:1. Google (Google):簡直是殺瘋了!一個人獨佔43.1%的市場份額,穩坐頭把交椅。Gemini系列全家桶,特別是那個便宜又大碗的Gemini-2.0-Flash,性價比直接拉滿,誰能頂得住啊!2. DeepSeek:全場最大黑馬,沒有之一!硬是靠著DeepSeek-V3模型,從巨頭嘴裡搶下了19.6%的份額,直接把Anthropic擠到了第三。這說明啥?光靠吹牛逼沒用,人民群眾不好騙,產品好用、使用者粘性高才是硬道理!3. Anthropic:Claude系列表現也還行,以18.4%的份額守住了第三的位置,在程式設計等專業領域還是有一批鐵粉的。4. OpenAI:最讓人大跌眼鏡的就是它!市場份額波動極大,不僅沒進前三,還被前面的大佬甩開了一大截。GPT-4o發佈時那麼大陣仗,結果在API市場就這?人已麻,這波操作我看不懂!AI尼歐哥辣評:這牌桌變化太快,就像龍捲風!Google用“性價比”和“全家桶”兩張王牌把市場拿捏得死死的。而DeepSeek這匹黑馬的出現,證明了技術實力才是真正的護城河。至於OpenAI,是不是心思都花在App和整活上了,API這塊地都快荒了喂!/ 02 / 細分戰場神仙打架:各家都有“自留地”!光看總份額不過癮,我們再深入敵後,看看在各個細分領域,誰才是真正的王者!* 程式設計領域:Claude-Sonnet-4是絕對的王!佔據了44.5%的份額,看來程式設計師老哥們寫程式碼還是最認它,專業能力這塊沒得說。* 翻譯領域:Gemini-2.0-Flash再次亂殺全場!便宜、量大、速度快,簡直是翻譯場景的完美選擇。前幾名裡有七款都是Google的模型,這統治力,恐怖如斯!* 角色扮演(RP):這塊市場就比較“花”了,各種小眾模型百花齊放,主打一個“XP自由”。有意思的是,DeepSeek憑藉“高幻覺傾向”(說白了就是想像力豐富,能瞎掰)居然在這裡領先了。看來有時候,一本正經的AI反而沒有胡說八道的AI可愛啊!* 行銷領域:GPT-4o總算給OpenAI找回了場子!以32.5%的份額成為當之無愧的No.1。這說明在寫行銷文案、搞創意這塊,GPT的“嘴皮子”還是最溜的。AI尼歐哥辣評:API市場已經不是“一招鮮,吃遍天”的時代了。各家都在找自己的生態位,程式設計師用Claude,翻譯找Gemini,寫廣告還得是GPT。這種“術業有專攻”的局面,對咱們使用者來說,絕對是好事!/ 03 / 總結陳詞:幾家歡喜幾家愁扒完資料,AI尼歐哥我來給大家做個總結:* Google: 贏麻了。產品策略清晰,高低搭配,用性價比和全覆蓋把市場攪得天翻地覆。* DeepSeek:最大的驚喜。再次證明了,在AI圈,硬核技術才是最性感的肌肉。雖然它的DeepSeek-R1因為出第一個字太慢被瘋狂吐槽,但V3是真的香,使用者留存率高得嚇人。* Anthropic:穩紮穩打。專精於程式設計等領域,找到了自己的舒適區,活得還挺滋潤。* OpenAI:雷聲大,雨點小。API市場的表現實在有點拉胯,再不重視,這塊大蛋糕可就真沒你的份了。* Meta (Llama) & Mistral:一個份額持續萎縮,一個不溫不火,基本上在牌桌邊緣OB了。好啦,今天AI尼歐哥就跟大家嘮到這兒。總的來說,2025上半年的API江湖,就是Google的強勢碾壓和DeepSeek的黑馬逆襲。 (AI尼歐哥)
Meta宣戰OpenAI!發ChatGPT超強平替App,語音互動聯動AI眼鏡,Llama API免費用
Llama API免費體驗,獨立App正式上線。Meta和OpenAI全面開戰了!智東西4月30日報導,今天,在首屆LlamaCon開發者大會上,Meta正式發佈了對標ChatGPT的智能助手Meta AI App,並宣佈面向開發者提供官方Llama API服務的預覽版本。Meta AI App是一款智能助手,基於Llama模型打造,可通過社交媒體帳號瞭解使用者偏好、記住上下文。與ChatGPT一樣,Meta AI App支援語音和文字互動,並額外支援了全雙工語音互動(Full-duplex,允許在接收語音的同時平行處理和響應,支援邊聽邊說、即時打斷等功能)。Meta AI App可作為Meta RayBan AI眼鏡的配套應用程式,使用者能通過該眼鏡直接與Meta AI App對話。同場發佈的Llama API提供了包括Llama 4在內的多款模型,這一API與OpenAI SDK相容,使用OpenAI API服務的產品可無縫切換至Llama API。同時,Meta在新API中提供了用於微調和評估的工具,開發者可以打造符合自身需求的定製化模型,還可使用由AI晶片創企Cerebras和Groq提供的快速推理服務。值得一提的是,過去數年中,Llama相關發佈僅作為Meta Connect開發者大會上的一個環節,此次專門辦會足見他們對AI業務的重視。Meta CEO祖克柏並未出現在發佈會現場,會後其將參與2場對談。關於價格,開發者可通過申請獲取Llama API免費預覽版的使用權限。未來,這一API或將採取收費模式,具體價格表尚未發佈。Meta AI App及Web版本均已上線,免費可用。Meta AI Web端:https://www.meta.ai/Llama API文件:https://llama.developer.meta.com/docs/overview01.Llama模型下載量已超12億Meta AI App主打語音互動Meta首席產品官Chris Cox在LlamaCon大會上分享了Meta開源AI的最新進展。Cox稱,2年前,Meta內部對開放原始碼的商業化前景和優先順序問題都持有懷疑態度,但如今開源AI已成為行業大勢所趨。2個半月前,Meta宣佈Llama及其衍生模型已經實現了10億的下載量,今天,這一數字已迅速增長至12億。在開源平台Hugging Face上,Llama的大部分下載量均來自衍生模型,有數千名開發者參與貢獻,數萬個衍生模型被下載,每月被使用數十萬次。目前,Llama模型已被運用至Meta旗下的諸多App,包括WhatsApp、Instagram等等。在這些場景中,Llama模型經過了定製處理,以滿足特定用例需求,例如對話性、簡潔性(尤其是移動場景)和幽默感。為提供更豐富的AI體驗,Llama推出了獨立智能助手App——Meta AI。Meta AI App十分重視語音互動體驗,可提供低延遲、富有表現力的語音。Meta AI還可連接使用者的Facebook和Instagram帳戶,根據使用者互動歷史大致瞭解其興趣,並記憶使用者的相關資訊。這一App內建全雙工語音實驗模式。相關模型使用人與人之間的自然對話資料進行訓練,能提供更為自然的音訊輸出。全雙工意味著通道是雙向開放的,使用者可以聽到自然的打斷、笑聲等,就像真正的電話對話一樣。全雙工語音實驗模式還處於早期階段,沒有工具使用、網路搜尋等能力,無法瞭解新近發生的時事。Meta AI App中融入了社交元素,使用者可在發現頁面分享提示詞、生成結果等。這一App能與Meta Ray Ban智能眼鏡配合使用。使用者將能在眼鏡上開始對話,然後從應用程式或網路的“歷史記錄”選項卡中訪問它,以從上次中斷的地方繼續。02.一行程式碼就能呼叫可線上完成模型微調會上,Meta負責Llama業務的副總裁Manohar Paluri與Llama研究團隊成員Angela Fan共同發佈了由Meta託管的Llama API服務。Llama API提供簡單的一鍵式API金鑰建立,一行程式碼就能呼叫。支援輕量級的Python和Typescript SDK開發者以及OpenAI SDK。在API服務網頁中,Meta提供了互動式遊樂場。開發者可在其中嘗試不同的模型,更改模型設定,比如系統指令或溫度,以測試不同的組態。▲Llama API介面此外,開發者還可以使用多項預覽功能,包括基於JSON的結構化響應、工具呼叫等。Paluri認為,定製化才是開源模型真正應該領先的地方。Llama API提供了便捷的微調服務,目前支援對Llama 3.3 8B進行自訂。開發者可在微調標籤頁上傳用於微調的資料,或是使用Meta提供的合成資料工具包生成後訓練資料。▲Llama API模型微調介面資料上傳完成後,開發者可將資料的一部分切分出來,用於評估定製模型的表現。在Llama API平台上,可隨時查看訓練進展情況,微調完成後的模型可供下載,開發者可在任何場景中運行這一模型。大會上,Meta宣佈了與Cerebras和Groq的合作。這兩家企業可提供Llama 4 API服務所需的算力支援,其算力能實現更快的推理速度。03.結語:Llama探索商業化新道路自2023年Llama 1發佈以來,Llama系列模型已歷經四個主要版本,開源了數十款不同參數規模、不同架構的模型。不過,動輒數千億乃至兆參數量的模型,意味著巨大的投入——外媒爆料稱,過去一年內,Meta已經主動與微軟、亞馬遜等公司接洽,希望建立合作關係,共同分擔開發成本。本次,Llama API與Meta AI App的發佈,標誌著Meta開始積極探索Llama系列開源模型商業化的新道路。雖然目前的相關服務均處於免費狀態,但未來,Meta有望以開源模型為入口,引導企業和使用者使用關聯的雲服務,或是利用App實現商業化變現。在講完技術普惠和創新的故事之後,商業化或許是所有開源模型廠商們都需要共同面對的問題。 (智東西)
OpenAI 圖像API來襲!幾行程式碼,讓你的創意瞬間成真!
🔥 你敢相信?幾秒鐘讓AI為你畫出夢想中的世界!有沒有一刻,你腦海中浮現出一個絕妙的畫面,卻苦於無法將它呈現出來?現在,這個遺憾將成為過去!OpenAI,這個AI領域的“魔法師”,正式通過API開放了它的圖像生成神器——gpt-image-1。幾行程式碼,幾秒鐘時間,你的創意就能從虛幻變為現實。 🚀1. 技術的魔法棒:點燃創意的火花gpt-image-1,這個曾在ChatGPT中掀起熱潮的圖像生成模型,如今化身為開發者的「秘密武器」。它能聽懂你的指令,生成多樣風格的圖像,甚至還能精準呈現文字——這可是許多AI圖像工具的「老大難」問題。開發者可以透過API調整影像的解析度、風格,甚至背景透明度,彷彿擁有能隨心所欲揮舞的魔法畫筆。 🎨2. 使用者的狂熱:數字裡藏著的情感資料是最真實的見證者。ChatGPT影像功能上線首周,全球1.3億用戶創作了超過7億張圖片! 📊 這不是冷冰冰的數字,而是無數人對自我表達的渴望、對美的追求。如今,這股熱潮透過API釋放給了開發者,讓更多人能在這場創意盛宴中分一杯羹。你,準備好加入了嗎?3. 價格的誠意:讓每個人都能玩轉AIOpenAI用行動證明,尖端技術不該高高在上。他們的定價如同貼心的朋友:低解析度圖像每張約0.02美元,高畫質圖像也僅0.19美元。 💸 這樣的價格,讓初創公司、獨立開發者,甚至是學生,都能輕鬆將AI圖像生成融入自己的項目。創意,從未如此平易近人。4. 產業的風向標:先行者的腳步大玩家們早已聞風而動。Adobe將gpt-image-1嵌入Firefly和Express,Figma讓設計師在設計中直接產生圖像,Wix、Canva等平台也正在加速探索。 🌟 想像一下,在Figma中,你可以用幾句話產生一張海報,然後調整風格、增刪元素,整個過程如行雲流水。這樣的效率,誰能不愛?5. 安全的燈塔:創新不失底線技術如同一匹奔騰的野馬,OpenAI卻懂得如何為它套上韁繩。他們通過C2PA中繼資料浮水印,確保每張AI圖像都有“身份證”,來源透明可追溯。同時,開發者還能調節內容審計的敏感度,既釋放了創意的自由,也守護了技術的底線。 🛡️🌈 你呢?準備好迎接這場創意風暴了嗎?看到這裡,你是否已經心動不已?如果是你,這項技術會如何點亮你的生活?開發者們,你會用它打造什麼驚豔的應用?一般使用者們,你期待在那些場景中看到AI圖像的魔法?請在評論區留下你的想法,或是把這篇文章分享給你的好友,一起加入這場AI圖像革命的狂歡吧! 🎉 (澤問科技)
突發!OpenAI推出API組織驗證:不驗證就不讓用最新模型
OpenAI 剛剛上線了一項重要更新——API 組織驗證(Verified Organization)。直接關係到你未來能否用上 OpenAI 最頂尖的 AI 模型和新功能接下來一周OpenAI將發佈一系列新模型,Sam Altman 也已經官宣,如果不進行API驗證,新模型可能無法通過API使用OpenAI 立場:總有那麼一小撮人試圖利用 API 從事違規、甚至不安全的活動。推出這個驗證流程,就是為了在有效遏制濫用行為的同時,繼續向廣大的、負責任的開發者社群開放那些最先進的模型和能力。這是一種平衡策略,確保技術進步不被濫用拖累如何獲得驗證?需要準備什麼?想成為“認證組織”,你需要滿足以下條件,並在 OpenAI 平台操作:有效身份證明:你需要提供一份來自 OpenAI 支援的國家/地區的、有效的政府簽發身份證明(比如護照、駕照等,具體接受類型會在驗證流程中說明)唯一性限制:你不能在最近 90 天內使用同一份身份證明驗證過其他的 OpenAI 組織。也就是說,一個身份證明每 90 天只能用於驗證一個組織資格問題:請注意,並非所有組織都能立刻獲得驗證資格。如果你的組織暫時無法驗證,可以過段時間再嘗試驗證入口:直接訪問你的 Organization settings(組織設定)頁面即可找到驗證選項:platform.openai.com“驗證暫不可用”怎麼辦?如果你嘗試驗證時,系統告訴你當前不可用:繼續使用:你仍然可以像以前一樣,使用 OpenAI 平台和當前可用的模型。現有功能不受影響未來可能性:OpenAI 提到,那些目前需要驗證才能使用的模型,未來有可能(注意是“有可能”,非承諾)會無需驗證就開放給所有使用者。那些國家/地區的身份證明受支援?OpenAI 表示支援來自超過 200 個國家和地區的身份證明。想知道你的國家/地區是否在支援列表裡,最直接、最準確的方法就是啟動驗證流程,系統會根據你的情況進行判斷和提示至於麻不麻煩,OpenAI 表示:過程很快:只需幾分鐘即可完成沒有資金門檻:驗證本身不要求你有任何消費記錄或預存費用速率限制(Rate Limits):請注意,驗證本身不直接提升你的 API 呼叫速率限制。提升速率限制仍然依賴於你的使用量和支付等級(Usage Tiers)驗證好處好處非常直接: 解鎖高級模型和功能:通過驗證,你的組織將獲得訪問 OpenAI 最前沿模型(比如未來可能發佈的更強版本)和平台新增功能的權限。想用最新的 AI 能力?驗證是門票 為未來做準備:OpenAI 明確提到“為了迎接下一個激動人心的模型發佈”,建議大家現在就完成驗證。言下之意,未來的重磅模型很可能需要驗證才能使用寫在最後OpenAI 又增加了一層使用壁壘,感覺驗證又會成為一個生意,估計速度快的哥們已經在摩拳擦掌了 (AI寒武紀)